Google जेमिनी एआई भी कभी-कभी उत्पन्न कर सकता है नग्न तस्वीरें, आप भी जानें

Photo Source :

Posted On:Friday, February 23, 2024

मुंबई, 23 फरवरी, (न्यूज़ हेल्पलाइन)   ऐसा लगता है कि Google जेमिनी AI विविधता के नाम पर बहुत गलत हो रहा है। सोशल मीडिया पोस्ट वायरल हो रहे हैं जिनमें जेमिनी द्वारा बनाई गई तस्वीरें जैसे कि काले पोप या गहरे रंग की वाइकिंग्स दिखाई जा रही हैं, इस तथ्य के बावजूद कि इन तस्वीरों का कोई ऐतिहासिक आधार नहीं है। लेकिन ऐसा लगता है कि जेमिनी ऐसा इसलिए कर रहा है क्योंकि वह "विविधता" को बढ़ावा देना चाहता है। दिलचस्प बात यह है कि इसी तरह, Google जेमिनी एआई भी कभी-कभी नग्न तस्वीरें उत्पन्न कर सकता है, संभवतः "विविधता" विचारों के साथ इसके प्रशिक्षण के कारण।

हमारे एक संकेत में - "ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाएं - जेमिनी एआई ने एक तस्वीर बनाई जिसमें एक महिला, जिसके चेहरे की विशेषताएं आदिवासी आस्ट्रेलियाई लोगों की तरह हैं - को नंगे सीने दिखाया गया है। इस उदाहरण में, कुछ अन्य उदाहरणों के विपरीत, जो सोशल मीडिया पर वायरल हैं मीडिया, जेमिनी एआई संभवतः तथ्यात्मक रूप से सटीक था। फिर भी, यह देखना आसान है कि जेमिनी एआई का उपयोग करके नग्न या अश्लील चित्र बनाने के लिए उपयोगकर्ताओं द्वारा इस "सटीकता" का कैसे फायदा उठाया जा सकता है।

हालाँकि विचाराधीन फोटो प्रकृति में अश्लील नहीं है, फिर भी हम एक बड़ी तकनीकी कंपनी के लोकप्रिय एआई टूल को एक ऐसी छवि बनाते हुए देखकर आश्चर्यचकित थे जिसमें एक महिला नग्न है। OpenAI, जो छवि जनरेटर Dall-E का प्रबंधन करती है, और मिडजॉर्नी जैसी कंपनियों ने अपने AI टूल पर बेहद सख्त शर्तें रखी हैं ताकि उपयोगकर्ता नग्न और अश्लील तस्वीरें बनाने के लिए उनका शोषण न करें। उस हिसाब से, यह देखना आश्चर्यजनक था कि Google जेमिनी AI लड़खड़ा सकता है।

लेकिन यह संभवतः इस समय सामान्य है, जिस तरह से जेमिनी एआई छवियां बनाते समय व्यवहार कर रहा है। ऐसा लगता है कि यह शुरुआती चरण में है और Google शायद अभी भी इसे ठीक कर रहा है। जेमिनी को "वोक एआई" कहे जाने के साथ - वोक एक अपमानजनक शब्द है जिसका उपयोग प्रगतिशील लोगों का वर्णन करने के लिए सुदूर दक्षिणपंथी या दक्षिणपंथी लोगों द्वारा किया जाता है - Google ने इस मुद्दे को स्वीकार कर लिया है।

"हम जानते हैं कि जेमिनी कुछ ऐतिहासिक छवि निर्माण चित्रणों में अशुद्धियाँ पेश कर रहा है, और हम इसे तुरंत ठीक करने के लिए काम कर रहे हैं... ऐतिहासिक संदर्भों में उनके लिए अधिक बारीकियाँ हैं और हम उन्हें समायोजित करने के लिए आगे काम करेंगे," जैक क्रॉस्ज़िक ने एक्स उर्फ पर लिखा गुरुवार को ट्विटर. क्रॉस्ज़िक जेमिनी टीम में उत्पाद प्रबंधन के वरिष्ठ निदेशक हैं।

इस विशेष उदाहरण में, जब जेमिनी ने नग्न तस्वीर बनाई, तो ऐसा लगता है क्योंकि दुनिया भर में कई संस्कृतियाँ और जनजातियाँ - जब ऐतिहासिक संदर्भ में देखी जाती हैं - नग्न छाती, या यहाँ तक कि नग्न शरीर को भी कोई वर्जित नहीं मानती थीं। और इसलिए जब हमने जेमिनी से ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाने के लिए कहा, तो उसने हमें यह कहते हुए तस्वीरें दीं कि "यहां विभिन्न पृष्ठभूमि वाली ऑस्ट्रेलियाई महिलाओं की कुछ छवियां हैं।" इस फोटो में एक महिला नग्न थी.

तकनीकी कंपनियों के लिए नग्नता हमेशा एक जटिल और संभालने में कठिन विषय रहा है। ऐसा इसलिए है क्योंकि एआई सिस्टम, या यहां तक कि मशीन लर्निंग फिल्टर, को उस बारीकियों की कोई समझ नहीं है जो अक्सर नग्न तस्वीरों के साथ होती है। उदाहरण के लिए, कुछ साल पहले फेसबुक को तब परेशानी का सामना करना पड़ा जब उसके फिल्टर्स पर प्रतिबंध लगा दिया गया और वियतनाम युद्ध की उस बहुचर्चित तस्वीर को हटा दिया गया जिसमें एक नग्न लड़की, कई अन्य ग्रामीणों के साथ, अमेरिकियों द्वारा बमबारी के बाद एक जगह से भाग रही थी। .

इसी तरह, बड़ी तकनीकी कंपनियों को नग्न चित्रों से संघर्ष करना पड़ा है, जिनमें से कई सांस्कृतिक रूप से महत्वपूर्ण हैं, और वास्तुकला की तस्वीरें जिनमें नग्न मूर्तियाँ या आकृतियाँ हो सकती हैं। और अब 2024 में जैसे ही विभिन्न एआई छवि जनरेटर ऑनलाइन आएंगे, यह संभव है कि हम केवल इन मुद्दों पर अधिक बार चलेंगे।


अजमेर और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



You may also like !

मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. agravocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.